MENTAL Y LOS LÍMITES
DE LA INTELIGENCIA
ARTIFICIAL

“Propongo considerar la siguiente pregunta: ¿Pueden pensar las máquinas?” (Alan Turing)

“Cualquier intento de hacer algo similar a inteligencia en una máquina requeriría poner significado, no solo información, en primer lugar” (David Bohm)

“La máquina no aísla al hombre de los grandes problemas de la naturaleza, sino que lo sumerge más profundamente en ellos” (Saint-Exupery)



¿Qué es la Inteligencia?

El término “inteligencia” deriva del latín “intelligere”, que significa escoger o distinguir.

No exista una definición universalmente aceptada de lo que es inteligencia. La inteligencia tiene muchas facetas, no es una cualidad, sino el resultado de la conjunción armónica de varias cualidades, entre ellas las siguientes: A partir de estas cualidades, podemos intentar una definición general de inteligencia. La inteligencia es una facultad mental: la capacidad de entender una situación, tema o problema y adoptar la decisión óptima o más adecuada en cada momento según el objetivo perseguido, siguiendo un criterio lógico o razonamiento de tipo general.

Esta definición implica dos cosas: 1) capacidad de síntesis (entender los rasgos principales de una situación, tema o problema); 2) capacidad de análisis para adoptar la decisión más adecuada.

El hecho de que la inteligencia implique síntesis y análisis, es decir, la unión de los opuestos, hace que la inteligencia sea algo próximo a la conciencia, pues la conciencia une los opuestos en general. Pero la inteligencia es una facultad mental que interviene tras la conciencia. La inteligencia está subordinada a la conciencia. Todas las cualidades de la inteligencia están integradas desde el punto de vista superior de la conciencia.

Según Howard Gardner [2006], existen muchos tipos de inteligencia: lingüística, espacial, lógico-matemática, musical, etc.

Según Daniel Goleman [2010], existe la inteligencia emocional: la capacidad de reconocer y gestionar sentimientos propios y ajenos.

Existe también la inteligencia creativa, la capacidad de relacionar conceptos conocidos para producir conceptos nuevos y originales.


La Inteligencia Artificial

La inteligencia artificial (IA) es la hipotética inteligencia de un sistema que exhibe algunas de las cualidades de la inteligencia humana. La cuestión que plantea la IA es: ¿es posible teórica y prácticamente construir una máquina inteligente? Un sistema inteligente debe ser finito, abierto, funcionar en tiempo real y tener capacidad de adaptación incluso con insuficientes conocimientos y recursos.

La IA tiene sus raíces en los desarrollos de la lógica formal, con figuras como Boole (álgebra de la lógica), Frege (lógica matemática), Peano (lógica matemática como lenguaje formal), Russell (fundamentación lógica), Shannon (teoría de la información) y Wiener (cibernética). Todos ellos contribuyeron a establecer los fundamentos para la automatización del razonamiento.

El término “inteligencia artificial” fue acuñado por John McCarthy en la conferencia sobre este tema que tuvo lugar en la Universidad Dartmouth College (Hanover, New Hampshire, EE.UU.) en el verano de 1956, un evento organizado por el propio McCarthy, Marvin Minsky, Nathalien Rochester y Claude Shannon. Participaron diez investigadores: los 4 organizadores y 6 más (Ray Solomonoff, Oliver Selfrige, Trenchard More, Arthur Samuel, Herbert Simon y Allen Newell) y duró un mes. Su hipótesis de trabajo fue: “Todo aspecto de aprendizaje o cualquier otra característica de inteligencia puede ser definido de forma tan precisa que puede construirse una máquina para simularla” . El encuentro fue un éxito, y se considera esta conferencia como la introducción de una nueva área científica de conocimiento, el evento fundacional formal de la IA. McCarthy recibió el premio Turing en 1971 precisamente por sus contribuciones en el campo de la IA.

Se han propuesto numerosas definiciones diferentes de “inteligencia artificial”, pero no se ha logrado un consenso general. Esto se debe a su insuficiente fundamentación conceptual. Hay problemas que no se sabe si son de IA o puramente computacionales.

Para Marvin Minsky −que estableció los fundamentos de la IA, guiado por el sueño visionario de dotar a los ordenadores con la capacidad de razonamiento− “La inteligencia artificial es la ciencia de hacer que las máquinas hagan cosas que requerirían inteligencia si las hiciera un ser humano”. Según Minski, las máquinas llegarán a pensar como los seres humanos. Minsky [1980] elaboró una teoría de la inteligencia que denominó “la sociedad de la mente”. La sociedad de la mente es un conjunto de agentes independientes, que ejecutan acciones sencillas y específicas y que colaboran entre sí. El pensamiento y la inteligencia es el resultado de esta asociación que logra realizar tareas que los elementos individuales no pueden realizar aisladamente. Este enfoque, según Minsky, es válido tanto para las máquinas como para la mente humana.


Origen de la IA

El origen formal de la IA se remonta a Octubre de 1950, cuando Alan Turing publicó su su famoso artículo en la revista Mind, titulado “Computing machinery and intelligence” (Máquinas de computación e inteligencia) [Turing, 1950]. En este artículo planteó la pregunta “¿Pueden pensar las máquinas?” y propuso el “juego de la imitación” (imitation game) llamado posteriormente “test de Turing” en su honor.

El test de Turing es un experimento mental para evaluar la inteligencia de una máquina, basado en la idea de que la interacción verbal es el medio en que la inteligencia se hace más patente: El test de Turing está inspirado en un juego social de la época, el juego de la imitación. Este juego necesita tres personas, un hombre (A), una mujer (B) y un interrogador (C). El interrogador está separado de A y B y se comunica con ellos mediante notas escritas. Para el interrogador el objetivo del juego es determinar cuál de los dos es el hombre y cuál es la mujer, por medio de preguntas y las respuestas obtenidas.

Turing pretendía dar una definición empírica (conductista o positivista) de inteligencia, pues a nivel teórico es imposible definirla con exactitud.

Para Turing, la mente es el resultado de la complejidad de las conexiones neuronales. Cuando conozcamos a fondo el funcionamiento del cerebro, podremos implementar dichos procesos en un sistema mecánico. Turing predijo que las máquinas podrían llegar a alcanzar un nivel de inteligencia comparable con la inteligencia humana, e incluso superarla. Las máquinas competirán con los humanos en todos los campos intelectuales.


Objeciones a la IA

Turing analizó una serie de posibles objeciones a su teoría de que las máquinas pueden pensar, en concreto, las nueve siguientes:
  1. Objeción teológica.
    Pensar es una cualidad del alma inmortal que Dios ha proporcionado a los seres humanos, pero no a los animales ni máquinas. Por tanto, ni animales ni máquinas podrían llegar a pensar. La respuesta de Turing es que esta objeción limitaría la omnipotencia divina, pues Dios, debería tener la potestad de conceder el pensamiento a una máquina si lo estimara conveniente. Además, nosotros somos instrumentos de Dios y tenemos también capacidad de creación.

  2. Objeción del avestruz (la cabeza en la arena).
    Las consecuencias del hecho de que las máquinas pensaran serían demasiado horribles, por lo que debemos esperar y creer que no pueden hacerlo. Para Turing, se confunde entre lo que no se puede hacer y lo que no se debe hacer.

  3. Objeción matemática.
    Los sistemas lógicos están limitados en su capacidad de razonamiento por el teorema de Gódel. Esto implica que también existen limitaciones en el poder computacional de las máquinas. Turing responde que estas limitaciones son ciertas, pero que también las tienen los humanos.

  4. Argumento de la consciencia.
    Hasta que una máquina no sea consciente, sepa escribir un soneto o componer un concierto con base en las emociones que siente, y no solo sepa generar símbolos, no se podrá considerar inteligente. Para Turing no podemos penetrar en el interior de una persona, cómo siente. Solo uno mismo puede conocer su interior. En cualquier caso, una máquina puede ser consciente de sus procesos internos.

  5. Argumento de varias incapacidades.


  6. Objeción de Lady Lovelace.
    Una máquina sólo puede hacer aquello que le hemos ordenado que haga, no tiene iniciativa, no es autónomo ni creativo. Para Turing, este es el argumento más utilizado como crítica, pero advierte que cualquier sistema suficientemente complejo puede ser indistinguible de un sistema creativo, con iniciativa en el que no podremos saber si su decisión es autónoma o determinada por su programación.

  7. Argumento de la continuidad del sistema nervioso.
    Las máquinas son máquinas discretas, de estados finitos. El sistema nervioso no es discreto, sino analógico. Para Turing, cualquier sistema analógico puede ser simulado por un sistema de computación digital.

  8. Argumento de la informalidad del comportamiento.
    No es posible elaborar un conjunto de reglas que describa lo que una persona debería hacer en toda clase de circunstancias. Para Turing, se confunden “reglas” con “leyes de comportamiento”. Las máquinas obedecen las reglas con exactitud, pero un sistema de reglas suficientemente complejo podría hacer frente a toda clase de circunstancias.

  9. Argumento de la percepción extra-sensorial.
    Una máquina no tiene capacidad de percepción extra-sensorial en sus cuatro variantes: telepatía, clarividencia, precognición y psicoquinesis, capacidades que desafían a la ciencia convencional. Para Turing este tema no tiene sentido en las máquinas.
Según Turing, el principal argumento a favor de la IA se encuentra en el aprendizaje. En lugar de producir un programa para simular la mente adulta, Turing propone partir de una máquina muy simple, la más simple posible (como la mente infantil), basada en un lenguaje simbólico, con principios generales (como nombrar, señalar, etc.) y con un sistema completo de inferencia lógica incorporado. Habría reglas operativas fijas (primarias) y otras reglas secundarias y transitorias. El comportamiento inteligente debe ser flexible, pero sin que produzca un comportamiento aleatorio o bucles repetitivos. Y probablemente sería conveniente incluir un elemento aleatorio, que sería muy útil cuando estemos buscando la solución a un problema, sobre todo cuando existan muchas soluciones posibles. Sería un método mejor que el sistemático, un mecanismo análogo al proceso de evolución en el que hay mutaciones aleatorias.

A esta máquina inicial se le va sometiendo a un proceso de educación y enseñanza progresiva hasta conseguir una mente adulta. Estos dos componentes (el programa inicial y el proceso de educación) están estrechamente relacionados. La máquina se la podría hacer evolucionar sobre la base de recompensas y castigos, como en la vida real.


Inteligencia artificial débil y fuerte

Según John Searle [1980], hay dos tipos de IA:
  1. La IA “débil”, que pretende solo la simulación de la mente humana mediante programas de ordenador. Esto permite realizar experimentos epistemológicos (como probar teorías cognitivas y simularlas) como ayuda en la comprensión de la mente humana.

  2. La IA ”fuerte”, que cree en la posibilidad de construir una mente artificial, o un ordenador con consciencia, pues considera que la mente humana es solo un sistema que procesa símbolos. Un proceso computacional es capaz de modificarse y organizarse a sí mismo puede llegar a ser consciente.
La mayoría de los investigadores de la IA dan la IA débil por supuesto y no se preocupan por la hipótesis de la IA fuerte.

Searle es partidario solo de la IA débil. Ha atacado con dureza el computacionalismo dominante dentro de la actual ciencia cognitiva. El computacionalismo o teoría computacional de la mente, sostiene que la mente humana es un sistema de procesamiento de la información muy similar o incluso idéntico al de un ordenador digital, donde el hardware sería el cerebro.

Searle propuso la metáfora de la caja china para ilustrar que superar el test de Turing no implica tener inteligencia: El argumento de la caja china va en contra de la IA fuerte, es decir, de la posibilidad de lograr una máquina que piense realmente. Según Searle, si una máquina supera el test de Turing, no significa que la máquina piense, que “sepa” lo que está haciendo, que tenga conciencia. La caja china es una metáfora del ordenador como dispositivo ciego semánticamente. Es un dispositivo de mera manipulación de símbolos, sin semántica ni consciencia.

En su obra “El misterio de la conciencia” [2009], Searle sostiene las siguientes ideas:
Otras opiniones sobre la IA

Para Roger Penrose, la IA fuerte (replicar la mente humana) no es posible. Ni tampoco la IA débil (simular la mente humana). En su obra “La Nueva Mente del Emperador” [1996] defiende lo siguiente: Un gran defensor de la IA fuerte es Daniel Dennett [1995, 1996]: Ray Kurzweil −ingeniero, inventor, visionario, escritor científico especializado en ciencias de la computación e IA, y apóstol del transhumanismo− prevé un gran futuro a la IA. Sus ideas principals, reflejadas en varios libros que han tenido gran impacto [ver Bibliografía], son:
Inteligencia artificial general

La IA general (Artificial General Intelligence) es un término acuñado por el físico Mark Gubrud en 1997. Tiene las características siguientes: El proyecto Cyc de Douglas Lenat y el proyecto Soar de Allen Newell se consideran que caen dentro del ámbito de la IA general [ver Adenda].

Los problemas que no puede resolver la IA general caen bajo lo que se conoce informalmente como “IA difícil” (hard Artificial Inteeligence). Problemas que pertenecen a la IA difícil son: la visión artificial, la comprensión del lenguaje natural y la traducción automática. Una IA que cubra la IA general y la IA difícil se denomina “IA completa” (full Artificial Intelligence).


MENTAL: Los Límites de la Inteligencia Artificial

Los límites de la IA son los arquetipos primarios

Con MENTAL se arroja luz al problema de los límites de la IA:

Adenda

Test de Turing inverso

Al día de hoy, el test de Turing no ha podido ser pasado por ninguna máquina. Una aplicación práctica de este hecho se utiliza para la eliminación de accesos automáticos en páginas web. Los tests de Turing inversos, o CAPTCHAS se han convertido en práctica habitual. La prueba más común consiste en introducir un conjunto de caracteres que se muestran en una imagen distorsionada. Se supone que una máquina no es capaz de comprender e introducir la secuencia de forma correcta, por lo que sola mente un ser humano podría hacerlo.


Cyc

Cyc −del ingles, encyclopedia− es un proyecto de IA que intenta construir una base de conocimientos de tipo general que permitan a las aplicaciones de IA realizar razonamientos de sentido común. El proyecto fue iniciado por Douglas Lenat en 1984. Cyc contiene una multitud de reglas simples. La base de datos contiene unos 100.000 conceptos y un millón de declaraciones (aserciones y reglas).


Soar

El proyecto Soar es una arquitectura para la IA general creada por John Laird, Paul Rosenbloom y Allen Newell, y difundida en 1987 en un artículo de la revista Artificial Intelligence. Desde su difusión ha sido utilizada ampliamente para desarrollar diferentes modelos del comportamiento humano. El objetivo último de Soar es conseguir IA general, aunque se reconoce que este objetivo es muy ambicioso y de largo plazo.

Soar utiliza un enfoque basado en el proceso de símbolos (symbol system hypothesis) para representar el conocimiento operativo y descriptivo. Utiliza reglas del tipo “condición – acción”, como las utilizadas en los sistemas expertos. Utiliza un espacio del problema, que es el conjunto de los diferentes estados que pueden ser alcanzados por el sistema. Se buscan los estados que más se acercan al estado objetivo (la solución del problema). A su vez, estos estados se convierten en subobjetivos. Y así sucesivamente.

Soar es una evolución del Logic Theorist, presentado en 1955 por Allen Newell, Herbert Simon y Cliff Shaw, que fue el primer sistema de IA. Fue capaz de demostrar 38 de los 52 teoremas de Principia Mathematica de Russell y Whitehead.


El premio Loebner para el test de Turing

Desde el año 2000, en que se cumplió el 50 aniversario de la propuesta del test de Turing, se otorga el Premio Loebner al mejor programa inteligente que más se aproxime al comportamiento humano.

El Premio Loebner tiene un formato que sigue el estándar establecido en el test de Turing. Un juez humano se enfrenta a dos pantallas de ordenador, una de ellas que se encuentra bajo el control de un computador, y la otra bajo el control de un humano. El juez plantea preguntas a las dos pantallas y recibe las respuestas. En base a las respuestas, el juez debe decidir qué pantalla es la controlada por el ser humano y cuál es la controlada por el programa.

Se ofertan tres premios. Una medalla de bronce anual (y 2.000 $), para el programa más parecido a un ser humano de los presentados cada año. Una medalla de plata (y 25.000 $) que se otorgará una sola vez, para el primer programa en el que los jueces no logren distinguir de un ser humano, por medio de una pantalla de texto, premio aún no concedido. Y una medalla de oro (y 100,000 $), que también se otorgará una sola vez, para el primer programa indistinguible y que use interfaces visual y auditivo.


Bibliografía